23 и 24 августа ГК «Мега-НН» при поддержке Министерства информационных технологий, связи и средств массовой информации Нижегородской области и ГУ «Нижегородский бизнес-инкубатор» планирует проведение «Международного форума сервис-провайдинга «Clouds-NN 2012». Таги:
Мы уже писали о приобретенном компанией Citrix вместе с компанией Kaviza решении VDI-in-a-Box, которое позволяет построить инфраструктуру виртуальных ПК в небольшой организации без необходимости использования общих хранилищ (можно использовать локальные диски) и других сложностей, связанных с развертыванием и управлением.
На днях вышло обновление продукта - Citrix VDI-in-a-Box 5.1. Что нового появилось в решении:
Personalized Virtual Desktops (PVD): теперь слой пользовательской персонализации виртуального ПК (установленные приложения и данные) отделен от образа самого ПК, что позволяет более гибко подходить к управлению и обновлению образов. Таким образом, имею одну мастер-копию образа виртуального ПК можно сосредоточиться на управлении пользовательскими профилями и приложениями, находящимися в отдельной сущности.
Предоставление Windows-as-a-Service в виртуальных ПК: для сервис-провайдеров Citrix Service Provider (CSP) появились референсные архитектуры о том, как можно использовать решение для предоставления виртуальных ПК в аренду пользователям в соответствии с условиями лицензирования Microsoft.
Улучшенная производительность, надежность и средства управления: в VDI-in-a-Box 5.1 была существенно улучшена производительность и надежность: сервисы Active Directory работают стабильно при отказах контроллера (за счет интеграции с несколькими контроллерами). Кстати решение VDI-in-a-Box работает и без домена. Кроме того, появились базовые возможности ярусного хранения (например, пользователь может хранить отдельные данные на SSD). Также можно использовать для виртуальных ПК функции Virtual IP со встроенным балансировщиком, что позволяет не использовать внешний балансировщик. Появились оптимизации для Google Earth.
Простота и масштабируемость: VDI-in-a-Box 5.1 стал еще проще (развертывание, обновление, управление), что важно для СМБ-пользователей. Также теперь десктоп-агент устанавливается самостоятельно в виртуальные ПК (и сам обновляется). Добавилась поддержка нескольких vCPU, а также разделение сущностей пользователь и компьютер.
Поддержка Windows Server 2008 R2 и Windows 8 (Beta): VDI-in-a-Box 5.1 управляет образами Windows 2008 R2, Windows XP, Windows 7 и Windows 8. Все возможности Windows 8, включая интерфейс Metro, полностью поддерживаются.
Мониторинг: в VDI-in-a-Box появились новые метрики производительности и жизнедеятельности для виртуальных ПК и физических серверов. Кроме этого, добавилась простая система алертинга по различным событиям. Есть также возможность интеграции с Citrix GoToAssis, для оказания техподдержки пользователям.
Интеграция с NetScaler Access Gateway - теперь предоставление защищенного доступа к виртуальным ПК возможно через этот продукт.
Уже совсем скоро в Сан-Франциско состоится коференция VMworld 2012, которую ежегодно проводит компания VMware для всех тех, кому интересны технологии виртуализации и облачные инфраструктуры. Там мы увидим много интересных анонсов и изменений в продуктовой линейке VMware, однако один важный анонс уже, по-сути, сделан: VMware отменит ограничения по vRAM для лицензий различных изданий VMware vSphere 5.1, обновленной версии лидирующей на рынке платформы виртуализации. Напомним, что при превышении суммарного значения сконфигурированной оперативной памяти виртуальных машин (vRAM) для лицензии на процессор, пользователи сейчас вынуждены докупать еще лицензий, чтобы соответствовать условиям VMware. Эта политика и раньше вызывала очень много вопросов, так как демотивировала пользователей наращивать коэффициент консолидации виртуальных машин на хостах VMware ESXi (превышаешь порог по памяти для лицензии->платишь больше), что противоречит самой идее виртуализации.
Очевидно, что решение об отмене лицензирования по vRAM было принято под давлением того факта, что платформа Microsoft Hyper-V 3.0, которая вышла вместе с обновленной ОС Windows Server 2012, окажется практически эквивалентной по большинству функциональных возможностей платформе VMware vSphere. А как мы уже писали, виртуальная инфраструктура на базе Hyper-V+SC VMM обойдется гораздо дешевле оной от VMware.
То отклонение красного графика в результатах калькулятора Microsoft, выраженное в деньгах, которое мы видим при увеличении коэффициента консолидации, и есть тот самый vRAM Tax - налог, который пользователи плятят за то, что более эффективно загружают свои хост-серверы.
Пользователи отреагировали на отмену налога весьма положительно:
Все это, конечно, хорошо, но этого мало. Даже с отмененным налогом на vRAM компания VMware не сможет противостоять ценовому давлению Microsoft в сегменте малого и среднего бизнеса, поэтому в ближайшее время мы увидим несколько значимых изменений в лицензионной политике VMware именно для СМБ (пока не скажу каких).
Также, чтобы нивелировать старания Microsoft по раскрутке встроенной в Hyper-V технологии репликации виртуальных машин между хостами Hyper-V Replica, VMware исключит vSphere Replication из состава VMware Site Recovery Manager и включит ее в состав самой платформы vSphere 5.1.
Кроме этого, мы увидим Shared-nothing горячую миграцию виртуальных машин между хостами (без общего хранилища) - то, что важно для пользователей СМБ, и то, что уже сделано в Hyper-V.
По всем этим потугам мы видим, что VMware начинает пытаться отбиваться от Microsoft (невероятно, да - VMware все-таки заметила, что у нее есть СМБ-пользователи), однако если цены на vSphere для небольших компаний не будут снижены (или не будут выпущены какие-нибудь особенные спецпредложения) - VMware потеряет этот рынок.
Как многие из вас читали, недавно компания Microsoft выпустила RTM-релиз новой версии ОС Windows Server 2012. Мы уже писали о новых возможностях гипервизора Hyper-V 3.0, который приобрел много новых функций и улучшений, что позволяет ему конкурировать с платформой VMware vSphere, являющейся на данный момент лидером рынка. Одним из таких улучшений стал виртуальный коммутатор Hyper-V Extensible Switch, работающий на уровне Layer 2 и предоставляющий возможности расширения функциональности за счет API, доступного для компаний-партнеров Microsoft. Более подробно об этом можно прочитать тут.
Возможность изоляции виртуальных машин путём создания частных виртуальных сетей (PVLANs)
Защита от ARP Spoofing атак
Защита от DHCP Snooping атак
Изоляция и ограничение пропускной способности портов коммутатора
Поддержка VLAN Trunking для виртуальных машин
Мониторинг трафика
Управление через PowerShell и WMI
Для тех, кто интересуется подробностями функции Hyper-V Extensible Switch, компания Microsoft подготовила серию неплохих видео:
Также за последнее время появилось несколько полезных ссылок, особенно для тех, кто подумывает о переходе с VMware vSphere на Microsoft Hyper-V:
Про кластеры из гостевых ОС - Hyper-V, в отличие от vSphere, поддерживает кластеризацию больше, чем 2-х ВМ, работающих не только с FC-хранилищем, но и с iSCSI и NFS. При этом поддерживается Live Migration таких машин.
Список поддерживаемых гостевых ОС (клиентских и серверных) - находится внизу страницы по ссылке. Полезно помнить, что официально поддерживается в Hyper-V.
Для кого это сделано? Очевидно, что решение RDSH направлено на тех пользователей, кто использует терминальные службы Microsoft для доступа пользователей к приложениям, размещенным на серверах Microsoft Windows Server, которые они по каким-то причинам не хотят переносить в VDI-среду VMware View. То есть, это частичная конкуренция продукту Citrix XenApp, частью функций которого является предоставление терминального доступа посредством высокопроизводительного протокола HDX/ICA. Соответственно, маркетинг Teradici для нового продукта будет направлен на клиентскую базу Citrix.
Определенная ниша для решения RDSH определенно есть - не все организации хотят выкладывать большие деньги за Citrix XenApp, особенно в случае, когда они используют лишь небольшой набор его функций. Ожидается, что Teradici сможет предложить пользователям высокую производительность протокола PCoIP по сходной цене, без дополнительных ненужных обвесов.
Для VMware этот шаг Teradici также очень выгоден - поскольку решение RDSH завязано на брокер соединений VMware View Manager, VMware сможет предлагать своим клиентам законченное решение как по виртуализации рабочих нагрузок в VDI-среде VMware View, так и для улучшения производительности Legacy-информационных систем, применяющих терминальный доступ на базе Microsoft RDS в Windows Server 2008 (также сообщается о поддержке Windows Server 2012).
Решение RDSH поддерживает ОС Windows 7 в качестве операционной системы для доступа к терминальным сессиям, будет вместимо со всеми тонкими клиентами без необходимости их обновления, а также, само собой, будет поддерживать софтовые клиенты VMware View. Для тех, кто применяет специальную карточку APEX 2800 PCoIP offload card, приятная новость - RDSH также будет ее поддерживать. Однако в версии RDSH 1.0 отсутствует поддержка проброса USB-устройств со стороны клиента в терминальную сессию.
Более подробно о новом решении Teradici будет рассказано на предстоящей конференции VMworld 2012 (секция 917), а его выпуск ожидается в 4-м квартале этого года. Пробную версию Teradici RDSH можно протестировать по этой ссылке.
Не так давно мы писали о платформе VGX от NVIDIA, которая позволяет применять виртуализацию GPU со стороны сервера, чтобы реализовывать требовательные к графике нагрузки в инфраструктуре виртуальных ПК предприятия (VDI).
Как многие помнят, в информации на сайте NVIDIA в качестве партнеров была указана только компания Citrix. Однако, как нам показали ребята из команды Dell Solution Center, решение VGX замечательно работает с протоколом PCoIP, который использует продукт VMware View.
Если в VMware vSphere Client вы зайдете на вкладку "Configuration", далее в разделе "Hardware" выберете пункт "Power Management", то увидите вот такую картинку:
Это настройки управления питанием хост-сервера VMware ESXi. Они задают политики управления питанием на основе открытого стандарта Advanced Configuration and Power Interface (ACPI), который определяет схему электропотребления на основе состояний процессора: Power Performance States (P-states) и Processor idle sleep states (C-states).
Режимы P-states — это комбинации напряжений и частот работы ядра процессора для различных типов нагрузок на CPU. Правильно выставленная пара «напряжение—частота» позволяет определить необходимую производительность для выполнения текущих задач CPU, что позволет снизить его энергопотребление и тепловыделение. Состояния P-states являются подмножеством рабочего C-state состояния C0.
Режимы C-states — это состояния, в которых процессор находится в различной ситуации относительно его простоя. Например, C1 (Halt) - состояние, когда процессор не исполняет инструкции, но готов мгновенно (с задержкой примерно 10нс) приступить к их исполнению, C2 (Stop-Clock) - состояние, в котором процессор по-прежнему поддерживает актуальное внутреннее состояние, но просыпается большее (до 100нс) время, при этом дополнительно отключены буферы ввода-вывода. C3 (Sleep) - состояние, в котором процессор отключает питание кэшей второго уровня, но сохраняет прочую служебную информацию. Время пробуждения может составлять до 50 мкс. В современных процессорах есть также множество дополнительных состояний, например, C1E с меньшим энергопотреблением и C6 - когда рабочее напряжение на процессоре может быть понижено до нуля.
Теперь, что мы увидим если нажмем на ссылку "Properties" для Power Management Settings:
Вот что значат эти политики:
High performance - данная политика максимизирует производительность процессора за счет его поддержки в наивысшем P-state состоянии все время (то есть, по-сути политика энергосбережения отключена). При этом используются только 2 C-state состояния: С0 (running) и C1 (halted). Соответственно, данный режим выдает максимальную производительность, не имеет инерционности и потребляет больше всего энергии. Эта политика выставлена по умолчанию для VMware ESX/ESXi 4.0 и 4.1.
Balanced - эта политика разработана для того, чтобы максимально использовать переключения между P-states в целях экономии энергии. Она обладает слегка большей инерционностью, но почти не влияет на производительность. Эта политика выставлена по умолчанию для VMware ESXi 5.0.
Low Power - эта политика придумана для максимального энергосбережения, а значит имеет риски по потере хостом ESXi производительности CPU. Она активно использует состояния C-states при различных видах простоя процессора.
Custom - по умолчанию эта политика работает как Balanced, но позволяет настроить различные параметры пользователю. Если оборудование хоста не позволяет операционной системе самостоятельно управлять энергопотреблением, то для этой политики будут доступны только варианты Not Supported или High performance.
Определять политики вручную необходимо только тогда, когда вы точно знаете, что с ними делать. Вот, например, табличка, описывающая custom-параметры политики:
Недавно мы уже писали о том, как работает технология балансировки нагрузки на хранилища VMware Storage DRS (там же и про Profile Driven Storage). Сегодня мы посмотрим на то, как эта технология работает совместно с различными фичами дисковых массиов, а также функциями самой VMware vSphere и других продуктов VMware.
Для начала приведем простую таблицу, из которой понятно, что поддерживается, а что нет, совместно с SDRS:
Возможность
Поддерживается или нет
Рекомендации VMware по режиму работы SDRS
Снапшоты на уровне массива (array-based snapshots)
Поддерживается
Ручное применение рекомендаций (Manual Mode)
Дедупликация на уровне массива (array-based deduplication)
Поддерживается
Ручное применение рекомендаций (Manual Mode)
Использование "тонких" дисков на уровне массива (array-based thin provisioning)
Поддерживается
Ручное применение рекомендаций (Manual Mode)
Использование функций автоматического ярусного хранения (array-based auto-tiering)
Поддерживается
Ручное применение рекомендаций (Manual Mode), только для распределения по заполненности хранилищ (auto-tiering по распределению нагрузки сам решит, что делать)
Репликация на уровне массива (array-based replication)
Автоматическое применение рекомендаций (Fully Automated Mode)
Технология репликации на уровне хоста (VMware vSphere Replication)
Не поддерживается
-----
Снапшоты виртуальных машин (VMware vSphere Snapshots)
Поддерживается
Автоматическое применение рекомендаций (Fully Automated Mode)
Использование "тонких" дисков на уровне виртуальных хранилищ (VMware vSphere Thin Provisioning)
Поддерживается
Автоматическое применение рекомендаций (Fully Automated Mode)
Технология связанных клонов (VMware vSphere Linked Clones)
Не поддерживается
-----
"Растянутый" кластер (VMware vSphere Storage Metro Cluster)
Поддерживается
Ручное применение рекомендаций (Manual Mode)
Хосты с версией ПО, младше чем vSphere 5.0
Не поддерживается
-----
Использование совместно с продуктом VMware vSphere Site Recovery Manager
Не поддерживается
-----
Использование совместно с продуктом VMware vCloud Director
Не поддерживается
-----
Комментарии к таблице:
Снапшоты на уровне массива - они никак не влияют на работу механизма SDRS, однако рекомендуется оставить его в ручном режиме, чтобы избежать возможных проблем при одновременном создании снапшота и перемещении виртуальных дисков.
Дедупликация на уровне массива - полностью совместима со механизмом SDRS, однако рекомендуется ручной режим, так как, с точки зрения дедупликации, наиболее эффективно сначала применить рекомендации по миграции виртуальных дисков, а потом уже использовать дедупликацию (для большинства сценариев).
Использование array-based auto-tiering - очевидно, что функции анализа производительности в дисковом массиве и перемещения данных по ярусам с различными характеристиками могут вступить вступить в конфликт с алгоритмами определения нагрузки в SDRS и перемещения vmdk-дисков по хранилищам на логическом уровне. Сам Storage DRS вступает в действие после 16 часов анализа нагрузки и генерирует рекомендации каждые 8 часов, в дисковом же массиве механизм перераспределения блоков по ярусам может работать по-разному: от real-time процесса в High-end массивах, до распределения каждые 24 часа в недорогих массивах. Понятно, что массиву лучше знать, какие блоки куда перемещать с точки зрения производительности физических устройств, поэтому для SDRS рекомендуется оставить выравнивание хранилищ только по заполненности томов VMFS, с отключенной I/O Metric.
Репликация на уровне массива - полностью поддерживается со стороны SDRS, однако, в зависимости от использования метода репликации, во время применения рекомендаций SDRS виртуальные машины могут остаться в незащищенном состоянии. Поэтому рекомендуется применять эти рекомендации SDRS во время запланированного окна обслуживания хранилищ.
VMware vSphere Storage Metro Cluster - здесь нужно избегать ситуации, когда виртуальный диск vmdk машины может уехать на другой сайт по отношению к хосту ESXi, который ее исполняет (когда используется общий Datastore Cluster хранилищ). Поэтому, а еще и потому, что распределенные кластеры могут строиться на базе технологий синхронной репликации хранилищ (см. предыдущий пункт), нужно использовать ручное применение рекомендаций SDRS.
Поддержка VMware vSphere Site Recovery Manager - на данный момент SDRS не обнаруживает Datastore Groups в SRM, а SRM не отслеживает миграции SDRS по хранилищам. Соответственно, при миграции ВМ на другое хранилище не обновляются protection groups в SRM, как следствие - виртуальные машины оказываются незащищенными. Поэтому совместное использование этих продуктов не поддерживается со стороны VMware.
Поддержка томов RDM - SDRS полностью поддерживает тома RDM, однако эта поддержка совершенно ничего не дает, так как в миграциях может участвовать только vmdk pointer, то есть прокси-файл виртуального диска, который занимает мало места (нет смысла балансировать по заполненности) и не генерирует никаких I/O на хранилище, где он лежит (нет смысла балансировать по I/O). Соответственно понадобиться эта поддержка может лишь на время перевода Datastore, где лежит этот файл-указатель, в режим обслуживания.
Поддержка VMware vSphere Replication - SDRS не поддерживается в комбинации с хостовой репликацией vSphere. Это потому, что файлы *.psf, используемые для нужд репликации, не поддерживаются, а даже удаляются при миграции ВМ на другое хранилище. Вследствие этого, механизм репликации для смигрированной машины считает, что она нуждается в полной синхронизации, что вызывает ситуацию, когда репликация будет отложена, а значит существенно ухудшатся показатели RTO/RPO. Поэтому (пока) совместное использование этих функций не поддерживается.
Поддержка VMware vSphere Snapshots - SDRS полностью поддерживает спапшоты виртуальных машин. При этом, по умолчанию, все снапшоты и виртуальные диски машины при применении рекомендаций перемещаются на другое хранилище полностью (см. левую часть картинки). Если же для дисков ВМ настроено anti-affinity rule, то они разъезжаются по разным хранилищам, однако снапшоты едут вместе со своим родительским диском (см. правую часть картинки).
Использование тонких дисков VMware vSphere - полностью поддерживается SDRS, при этом учитывается реально потребляемое дисковое пространство, а не заданный в конфигурации ВМ объем виртуального диска. Также SDRS учитывает и темпы роста тонкого виртуального диска - если он в течение последующих 30 часов может заполнить хранилище до порогового значения, то такая рекомендация показана и применена не будет.
Технология Linked Clones - не поддерживается со стороны SDRS, так как этот механизм не отслеживает взаимосвязи между дисками родительской и дочерних машин, а при их перемещении между хранилищами - они будут разорваны. Это же значит, что SDRS не поддерживается совместно с продуктом VMware View.
Использование с VMware vCloud Director - пока не поддерживается из-за проблем с размещением объектов vApp в кластере хранилищ.
Хосты с версией ПО, младше чем vSphere 5.0 - если один из таких хостов поключен к тому VMFS, то для него SDRS работать не будет. Причина очевидна - хосты до ESXi 5.0 не знали о том, что будет такая функция как SDRS.
Продолжаем вас знакомить с продуктом номер 1 StarWind iSCSI SAN, который удобно и просто использовать для создания отказоустойчивых хранилищ виртуальных машин VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Так уж получилось, что мы рассказывали об использовании этого продукта на платформах VMware и Microsoft, а вот для XenServer от Citrix почти ничего не писали.
На эту тему можно порекомендовать несколько статей от sysadminlab.net, где на примере вот такой простецкой инсталляции:
рассматриваются основные аспекты применения продукта для создания iSCSI-хранилищ под виртуальные машины:
Многие компании для защиты своей виртуальной инфраструктуры VMware vSphere используют сертифицированное средство vGate R2 (с поддержкой vSphere 5). Мы уже много писали о способах защиты и функциональности продукта для серверов виртуализации и виртуальных машин, исполняющих серверные нагрузки. В этой заметке, мы хотим рассказать о том, что продукт vGate R2 также поддерживает и инфраструктуру виртуальных ПК VMware View.
Архитектура использования vGate R2 совместно с VMware View похожа на оную с использованием виртуальных серверов, только защищается не vCenter, а View Connecton Server:
На компьютере, где установлен View Connection Server, должно быть не менее
двух Ethernet-интерфейсов, один из которых будет подключен к внешнему периметру сети администрирования виртуальной инфраструктуры, а другой — к
сети ВМ, где находятся рабочие места пользователей.
Для предоставления доступа View Connection Server к vCenter необходимо настроить определенный набор правил доступа к vCenter для учетной записи компьютера, где находится View Connection Server. Набор правил для предоставления доступа
View Connection Server к vCenter содержится в шаблоне "Доступ View Connection сервера к vCenter".
В этом шаблоне указаны порты доступа View Connection Server к vCenter, заданные по умолчанию (8443 и 443). Если используются порты, отличные от стандартных, необходимо указать номера этих портов в правилах доступа.
Если планируется поддержка View Client with Local Mode, то необходимо настроить еще одно правило для учетной записи компьютера, где находится View
Connection Server. Это правило должно разрешить доступ к серверу ESXi, на котором исполняется ВМ с View Transfer Server, по TCP-порту 902.
В целях безопасности настоятельно не рекомендуется предоставлять доступ к
другим объектам (или по другим портам) защищаемого периметра для учетной записи компьютера, где находится View Connection Server.
После настройки правил доступа перезапустите сервис vGate Client Authorization Service на сервере авторизации.
Как знают многие администраторы, в новой версии операционной системы Windows Server 2012 появилась возможность использования технологии Scale-Out File Servers (SOFS) для создания кластеров SMBv3.0-хранилищ типа active/active, предоставляющих надежное и отказоустойчивое файловое хранилище различным приложениям. В частности, SOFS может быть использовано для создания общего хранилища виртуальных машин серверов Microsoft Hyper-V на базе кластерной системы CSV (Cluster Shared Volumes):
Как видно из картинки, для организации инфраструктуры SOFS нам потребуется общее хранилище, построенное на базе Fibre Channel / iSCSI / SAS, что требует дополнительных затрат на оборудование, его настройку и обслуживание.
Компания StarWind предлагает организовать общее хранилище для SOFS на базе программного решения StarWind iSCSI SAN, которое позволяет организовывать кластеры отказоустойчивых хранилищ, предоставляющих общее хранилище для виртуальных машин VMware vSphere и Microsoft Hyper-V. StarWind предлагает использовать следующую схему для размещения виртуальных машин на SOFS:
О том, как работает такая инфраструктура, и как настроить ее, читайте в новых документах компании StarWind:
Мы уже писали о том, что такое и как работает технология VMware vStorage API for Array Integration (VAAI) (а также немного тут), которая позволяет передать операции по работе с хранилищами, которые выполняет компонент Data Mover в VMkernel, на сторону дискового массива. Это существенно улучшает показатели производительности различных операций (клонирования и развертывания ВМ, использования блокировок) за счет того, что они выполняются самим массивом, без задействования сервера VMware ESXi:
Если ваш массив не поддерживает примитивы VAAI, то чтобы склонировать виртуальный диск VMDK размером 64 ГБ, компонент Data Mover реализует эту операцию следующим образом:
Разделяет диск 64 ГБ на малые порции размером в 32 МБ.
Эту порцию 32 МБ Data Mover разделяет еще на маленькие операции ввода-вывода (I/O) размером в 64 КБ, которые идут в 32 параллельных потока одновремнно.
Соответственно, чтобы передать 32 МБ, Data Mover выполняет 512 операций ввода вывода (I/Os) по 64 КБ.
Если же массив поддерживает примитив XCOPY (он же Hardware Offloaded Copy и SAN Data Copy Offloading), то для передачи тех же 32 МБ будут использованы I/O размером в 4 МБ, а таких I/O будет, соответственно, всего 8 штук - разница очевидна.
Интересно, как работает VAAI с точки зрения ошибок при передаче данных: например, мы делаем клонирование ВМ на массиве с поддержкой VAAI, и вдруг возникает какая-то ошибка. В этом случае VMkernel Data Mover подхватывает операцию клонирования с того места, где VAAI вызвал ошибку, и производит "доклонирование" виртуальной машины. Далее ESXi периодически будет пробовать снова использовать VAAI на случай, если это была кратковременная ошибка массива.
При этом проверки в разных версиях ESXi будут производиться по-разному:
Для ESX/ESXi 4.1 проверка будет производиться каждые 512 ГБ передаваемых данных. Посмотреть этот параметр можно следующей командой:
# esxcfg-advcfg -g /DataMover/HardwareAcceleratedMoveFrequency Value of HardwareAcceleratedMoveFrequency is 16384
Это значение частоты 16384 нужно умножить на порцию 32 МБ и мы получим 512 ГБ. Чтобы поменять эту частоту, можно использовать команду:
Для ESXi 5.0 и выше все проще - проверка производится каждые 5 минут.
Помимо описанных в нашей статье примитивов Full Copy, Zero Block и ATS, начиная с версии ESXi 5.0, поддерживаются еще 2 примитива:
Thin Provisioning - механизм сообщения хостом ESXi дисковому массиву о том, что виртуальная машина или ее файлы с Thin LUN были удалены или перемещены (в силу разных причин - Storage vMotion, консолидация снапшотов и так далее), поэтому массив может забрать это дисковое пространство себе назад.
С точки зрения дисковых массивов, работающих на NFS (прежде всего, NetApp) в ESXi 5.0 также появилась поддержка примитивов VAAI:
Full File Clone – аналог функций Full Copy для VAAI на блочных хранилищах, предназначен для клонирования файлов виртуальных дисков VMDK.
Native Snapshot Support – передача на сторону массива функций создания снапшота ВМ.
Extended Statistics – включает возможность просмотра информации об использовании дискового пространства на NAS-хранилище, что полезно для Thin Provisioning.
Reserve Space – включает возможность создания виртуальных дисков типа "thick" (фиксированного размера) на NAS-хранилищах (ранее поддерживались только Thin-диски).
Функции VAAI включены по умолчанию и будут использованы тогда, когда станут доступны (например, при обновлении Firmware дискового массива, которое поддерживает VAAI).
Таги: VMware, vSphere, VAAI, Storage, ESXi, Enterprise, SAN
В конце июня мы писали про технологическое превью продукта VMware Workstation 2012 (плюс тут), в котором появилось новое средство WSX Server - возможность прямого доступа к консоли виртуальной машины из браузера без каких-либо плагинов.
Напомним, что WSX Server, который есть в VMware Workstation 2012, работает на базе технологии HTML 5 (с поддержкой WebSockets и Canvas), что подразумевает отсутствие необходимости иметь какие-либо дополнительные компоненты, кроме веб-браузера, чтобы получить доступ к консоли виртуальной машины и средствами управления ей. В качестве веб-браузеров, той или иной степени совместимых с HTML 5, можно использовать Chrome 17, Firefox 10, IE 10, Safari 5 на ПК с Mac OS и iOS 5 для iPad. Также стоит отметить, что VMware WSX поддерживает новые iPad с дисплеем Retina.
Итак, основные июльские нововведения технологии WSX:
Улучшенная домашняя страница - теперь на ней есть возможность добавлять серверы в список, также на нее будет возможность добавить часто используемые ВМ
Улучшенная страница при выборе сервера WSX - теперь виртуальные машины можно фильтровать по состоянию (powered on и т.п.), а также есть поиск
Большая кнопка "Включить ВМ" - удобна для iPad'ов:
Улучшенный Touch Input - для планшетов и смартфонов поддерживаются жесты, которыми можно эмулировать не только правую кнопку мыши (нажать и подержать пальцем), но и среднюю. Если держать одновременно двумя пальцами и тащить вниз или вверх - будет скроллинг.
Поддержка колесика мыши - работает в браузерах на PC и Mac.
Улучшен механизм работы с дисплеями Retina - теперь WSX не вываливается в пониженное разрешение при повторном соединении после обрыва. Дорисованы новые иконки и пофикшены баги.
Поддержка шифрованного SSL-соединения. Теперь можно назвать сертификаты именами wsx.crt и wsx.key и положить их в папки etc/vmware/wsx/ssl/directory (Linux) или Application Data\VMware\VMware WSX\SSL (Windows). Этого не сделано по умолчанию, так как SSL глючит с WebSockets.
Упрощенная установка - для Linux, например, больше не требуется Python. Для Windows улучшили стабильность.
Улучшенное обнаружение общих виртуальных машин (Shared VMs).
Улучшения производительности - при соединении и изменении разрешения.
Множественные исправления ошибок.
Напомним, что функции WSX работают, по-прежнему, в экспериментальном режиме.
Мы уже много писали о продукте vGate R2 - средстве номер 1 для защиты виртуальной инфраструктуры VMware vSphere, которое полностью поддерживает пятую версию этой платформы, имеет сертификаты ФСТЭК и предназначено для безопасной настройки хост-серверов и ВМ средствами политик, а также защиты от НСД. В прошлых статьях мы рассказывали о защите облачных инфраструктур сервис-провайдеров от внутренних и внешних угроз. Сегодня мы постараемся обобщить угрозы, существующие в виртуальной среде, и предложить средства защиты на базе продукта vGate R2 и других решений от компании Код Безопасности.
Достаточно давно мы уже описывали средство централизованного администрирования хост-серверами VMware vSphere - vSphere Management Assistant (vMA). По сути, vMA - это вынесенная "сервисная консоль" за пределы хост-серверов ESXi в отдельный виртуальный модуль (Virtual Appliance), с которого удобно выполнять консольные команды RCLI (например, мониторинга - resxtop), а также хранить и запускать различные скрипты. Сегодня мы расскажем о том, как восстновить (сбросить) пароль на виртуальном модуле vMA.
Итак, загружаем VMware vMA 5, устанавливаем выбор на пункте меню "SUSE Linux Enterprise Server 11 SP1 for VMware" и нажимаем кнопку <e>:
В появившемся далее экране выбираем строчку с "kernel /vmlinuz" и снова нажимаем <e>:
В следующем экране, в строке ввода, вбиваем init=/bin/bash:
После нажатия <Enter>, вы вернетесь в педыдущее окно, где нужно нажать <b> для загрузки vMA. После загрузки вводим команду, которой и устанавливаем новый пароль:
# passwd vi-admin
Пароль установить непросто. Он должен соответствовать следующим политикам:
Не менее 8 символовEight characters
Хотя бы один символ в верхнем регистре
Хотя бы один - в нижнем
Хотя бы одна цифра
Хотя бы один спецсимвол (#, $ и т.п.)
Понятно, что такой пароль никому не удобен. Поменять его можно командой:
Компания VMware, Inc. (NYSE: VMW) объявила о подписании окончательного соглашения о приобретении компании Nicira, Inc., пионера в области программно-определяемых сетей (SDN) и лидера в сфере сетевой виртуализации для программного обеспечения с открытым кодом. Таги:
Компания StarWind Software, выпускающая продукт номер 1 StarWind iSCSI SAN для создания хранилищ для виртуальных машин на платформах VMware vSphere и Microsoft Hyper-V, приглашает на вебинар "Introduction to SAN Infrastructures", посвященный созданию отказоустойчивой архитектуры хранения на базе данных платформ и протокола iSCSI, который пройдет 26 июля. Таги:
Многие интересующиеся значимыми событиями, происходящими на рынке виртуализации, уже, наверное, читали о том, что VMware приобрела компанию Nicira за 1,26 миллиарда долларов (из них $1,05 млрд. - кэшем, что весьма много). Сумма этой сделки заставляет обратить на нее внимание и задуматься над тем, как ведущие компании в сфере облачных вычислений видят себе будущее частных облаков.
Для начала небольшой видео-обзор решения Nicira (основной продукт компании - Nicira Network Virtualization Platform ):
Из ролика ничего не понятно - это неудивительно, поскольку технология эта фундаментальная и весьма непростая. Начнем с проблемы, которая существует в крупных компаниях по всему миру, использующих технологии виртуализации на платформе VMware vSphere. Крутые и большие организации уже давно видят виртуализацию не только как платформу, но и как основу существования облаков в контексте абстракции вычислительных ресурсов:
Основа данной концепции такова: мы берем различное железо и хранилища, которые есть в нашем датацентре, объединяем их в общий пул с помощью платформы виртуализации серверов. Далее эти вычислительные мощности и стораджи мы отделяем от логической ценностной единицы ИТ - приложений - с помощью абстракций - виртуальных машин и виртуальных хранилищ. Общий вычислительный пул датацентра мы разрезаем на логически удобные нам единицы (пулы ресурсов) и дальше предоставляем пользователям виртуальные машины с соответствующим уровнем SLA из абстрактных сущностей, которые построены поверх оборудования и вычислительной архитектуры с определенными характеристиками. Делается это с помощью VMware vCloud Director с его концепцией виртуальных датацентров:
Следующий аспект: виртуальные машины существуют на серверах и хранилищах уже на логическом, а не на физическом уровне (независимо от вендоров железа), как сделать так, чтобы в датацентре они были защищены политиками, да и сам периметр датацентра тоже был защищен? Ответ прост - есть семейство продуктов VMware vShield:
Прекрасно. Вроде все? Нет, не все. Невиртуализованной у нас осталась еще одна часть, а именно - сети. VMware предоставляет нам распределенный виртуальный коммутатор (Distributed vSwitch) с базовыми технологиями изоляции и контроля (Private VLAN), есть также продукт от Cisco - Nexus 1000V, который выполняет схожие функции, но обладает более широкими возможностями. Все это делается на уровне абстракции сетевых интерфейсов хост-серверов.
Однако в данном подходе нет самого главного - средств абстракции и виртуализации физического сетевого оборудования (коммутаторов, маршрутизаторов), большим парком которых применительно к виртуальным машинам нужно централизованно управлять в датацентре компании, где есть сотни виртуальных сетей, политик и конфигураций. Все это приводит к тому, что на развертывание новой виртуальной машины уходит 2-3 минуты (на сервере+хранилище), а вот на настройку сетевого взаимодействия, VLAN, безопасности, политик и прочего в забюрократизированных организациях уходит несколько дней.
Вот эту фундаментальную проблему и решает компания Nicira, так недешево доставшаяся VMware:
Суть концепции Nicira применительно к сетевому взаимодействию та же самая, что и в серверной виртуализации: собираем весь набор сетевого оборудования разных вендоров в единый пул, где уже на логическом уровне определяем виртуальные сети и политики, после чего можем цеплять их к виртуальным машинам централизованно:
Все это называется программно-определяемые сети (Software-defined networking, SDN) и работает на базе программных решений, разрабатываемых Nicira с далекого 2007 года. Интересно, что основательница VMware, Диана Грин, которую двинули с поста CEO компании, была одним из инвесторов Nicira, о чем мы писали 2 года назад. Диана вышла с неплохим профитом, а Nicira теперь позволит VMware получить законченную концепцию полной виртуализации облачного датацентра. Как нам и обещали, VMware вполне может стать "VMware of Networking". Кстати, теперь при покупке Nicira компания VMware снова двигает своего CEO.
Если тема вам интересна, можно почитать следующие материалы:
Ну и следующая новость - покупка компанией VMware конторы DynamicOps (продукт Virtual Resource Manager, VRM). Эта контора была выделена из небезызвестного банка Credit Suisse и разрабатывает средства для автоматизации гибридных облаков на базе нескольких гипервизоров (что неизбежно будет в крупных организациях с приходом Hyper-V 3.0), а также средства управления сервисными архитектурами вроде Platform-as-a-Service, Database-as-a-Service и Storage-as-a-Service.
Компания StarWind Software, выпускающая продукт номер 1 StarWind iSCSI SAN для создания хранилищ для виртуальных машин на платформах VMware vSphere и Microsoft Hyper-V, приглашает на вебинар "Introduction to SAN Infrastructures", посвященный созданию отказоустойчивой архитектуры хранения на базе данных платформ и протокола iSCSI, который пройдет завтра, 26 июля.
В рамках вебинара вы узнаете о том, как:
Настроить зеркало синхронизированных хранилищ с автоматическим восстановлением после отказа без простоя виртуальных машин
Создать синхронно реплицированную копию данных виртуальных хранилищ на DR-площадке
В рамках данного мероприятия мы расскажем о нашем видении направления развития облачных вычислений для конечных пользователей и технологиях/продуктах VMware, которые позволяют воплощать в жизнь эти идеи. Таги:
Такой скачок версий объясняется тем, что Citrix включила в новый релиз XenClient множество наработок от продукта NxTop, который на момент продажи Citrix достиг версии 4.0.8. Теперь Citrix XenClient 4.1 включает в себя поддержку значительно большего спектра оборудования клиентских ПК и ноутбуков, а также больше интегрирован с виртуальной инфраструктурой Microsoft Hyper-V. Мало того, само решение XenClient в качестве серверного бэкэнда использует только инфраструктуру Hyper-V. Интерфейс нового XenClient был позаимствован из NxTop, поэтому пользователям предыдущих версий решения придется немного попривыкать к новым особенностям клиентского гипервизора.
Решение Citrix XenClient Enterprise 4.1 включено в издания Citrix XenDesktop Enterprise и Platinum, а значит пользователи инфраструктуры виртуальных ПК от Citrix могут сразу же приступить к тестированию решения. Пользователи могут просто переключаться между удаленными и локальными копиями своих виртуальных машин, а также использовать сервис хранения ShareFile от Citrix и технологии доступности приложений и данных Follow-Me-Apps и Follow-Me-Data.
Новые возможности Citrix XenClient Enterprise 4.1:
Поддержка новых устройств (в 9 раз больше, чем раньше)
XenClient значительно расширил список совместимости железа (hardware compatibility list, HCL)
Поддержка новых устройств, таких как Ultrabook и систем на базе Intel Core третьего поколения (см. тут)
Поддержка модемов 3G/4G
Расширенная поддержка графических устройств nVidia
Обновленные аудио-драйверы
Расширение функций средств управления
Переработанный серверный бэкэнд средства управления (XenClient Enterprise Synchroniser), которое может работать на платформах Microsoft Hyper-V, VMware vSphere и Citrix XenServer
Возможности Enterprise-масштабирования, пришедшие от NxTop, позволяющие гибко управлять тысячами виртуальных ПК на устройствах пользователей
Улучшенные механизмы политик для виртуальных ПК и ролевой модели доступа с большим уровнем гранулярности
Улучшенная интеграция с Active Directory
Простота использования
Улучшенные механизмы управления в гостевой ОС, позволяющие управлять сетями Wi-Fi, настройками окружения и устройствами ввода
Автоматический апгрейд самого XenClient без вмешательства пользователя
Окружений типа "Connect" для быстрой загрузки ПК и доступа к интернету со встроенным Google Chrome
Обзор инсталляции Citrix XenClient Enterprise 4.1 и компонента Synchronizer:
Если у вас есть аккаунт MyCitrix, то загрузить продукт Citrix XenClient Enterprise 4.1 вы можете по этой ссылке. Если нет - триал можно скачать по этой ссылке.
Kenny сделал хорошую запись о списке дефолтных аккаунтов для различных продуктов VMware, а мы сведем это в таблицу для вашего удобства, добавив парочку отсутствующих продуктов:
Название продукта
Веб-адрес или консоль для доступа
Логин (username)
Пароль (password)
VMware vSphere Data Recovery
http://<имя или IP>:5480
root
vmw@re
VMware vSphere Storage Appliance
VSA Manager
svaadmin
svapass
VMware View Administrator
http://<имя или IP>/admin
Администратор Windows
Администратор Windows
VMware Site Recovery Manager
Консоль SRM
Администратор vCenter
Администратор vCenter
VMware vCloud Director
http://<имя или IP>/cloud
administrator
Указывается при установке
VMware vCloud Director Appliance
Direct Console
root
Default0
vCloud Director ApplianceOracleXEDatabase
БД
vcloud
VCloud
VMware vSphere Management Assistant
Direct Console
vi-admin
Задается после логина
VMware vCloud Connector Server
http://<имя или IP>:5480
admin
vmware
VMware vCloud Connector Node
http://<имя или IP>:5480
admin
vmware
VMware vCenter Chargeback
http://<имя или IP>:8080/cbmui
root
vmware
VMware Horizon Application Manager
http://<имя или IP>, http://<имя или IP>/SAAS/login/0
Мы уже писали про средства доверенной загрузки, которые нужно использовать в виртуальной инфраструктуре VMware vSphere 5, чтобы нейтрализовать угрозы, свзанные с доверенной загрузкой, и соответствовать требованиям руководящих документов ФСТЭК. Напомним, что когда дело касается виртуальных машин, организовать их доверенную загрузку можно с помощью сертифицированного средства защиты vGate R2 от компании Код Безопасности, в котором есть множество наборов политик, которые можно применять к различным объектам виртуальной инфраструктуры:
Однако надо помнить, что нужно защищать также и сами хост-серверы ESXi, находящиеся в датацентре компании. Для эффективной защиты сервера виртуализации, помимо vGate R2, необходим электронный замок - ПАК «Соболь» версии 3.0 для реализации следующих защитных механизмов:
идентификация и аутентификация пользователей на входе в систему (непосредственно при запуске сервера);
ведение журнала безопасности;
сигнализация попыток нарушения защиты;
запрет загрузки с внешних носителей;
контроль конфигурации (PCI-устройств, ACPI, SMBIOS и оперативной памяти).
Применение обоих средств защиты информации – ПАК «Соболь» версии 3.0 и vGate R2 – в комплексе позволяет защитить сервер с установленной платформой для виртуализации VMware vSphere 5 и нейтрализовать угрозы непосредственного доступа (угрозы, реализуемые до загрузки ОС, и угрозы, реализуемые после загрузки ОС).
Наличие у продуктов сертификатов ФСТЭК России позволяет использовать vGate R2 и ПАК «Соболь» версии 3.0 для защиты информации, составляющей коммерческую или государственную тайну в автоматизированных системах с классом защищенности до 1Б включительно.
Напомним, что версия vGate R2 с поддержкой vSphere 5 уже поступила в продажу, а бесплатную пробную версию продукта можно скачать тут.
Если мы запустим утилиту esxtop, то увидим следующие столбцы (интересующее нас выделено красным):
Нас интересует 5 счетчиков, касающиеся процессоров виртуальных машин, с помощью которых мы сможем сделать выводы об их производительности. Рассмотрим их подробнее:
Счетчик %RUN
Этот счетчик отображает процент времени, в течение которого виртуальная машина исполнялась в системе. Когда этот счетчик для ВМ около нуля или принимает небольшие значение - то с производительностью процессора все в порядке (при большом его значении для idle). Однако бывает так, что он небольшой, а виртуальная машина тормозит. Это значит, что она заблокирована планировщиком ESXi или ей не выделяется процессорного времени в связи с острой нехваткой процессорных ресурсов на сервере ESXi. В этом случае надо смотреть на другие счетчики (%WAIT, %RDY и %CSTP).
Если значение данного счетчика равно <Число vCPU машины> x 100%, это значит, что в гостевой ОС виртуальной машины процессы загрузили все доступные процессорные ресурсы ее vCPU. То есть необходимо зайти внутрь ВМ и исследовать проблему.
Счетчики %WAIT и %VMWAIT
Счетчик %WAIT отображает процент времени, которое виртуальная машина ждала, пока ядро ESXi (VMkernel) выполняло какие-то операции, перед тем, как она смогла продолжить выполнение операций. Если значение этого счетчика значительно больше значений %RUN, %RDY и %CSTP, это значит, что виртуальная машина дожидается окончания какой-то операции в VMkernel, например, ввода-вывода с хранилищем. В этом случае значение счетчика %SYS, показывающего загрузку системных ресурсов хоста ESXi, будет значительно выше значения %RUN.
Когда вы видите высокое значение данного счетчика, это значит, что нужно посмотреть на производительность хранилища виртуальной машины, а также на остальные периферийные устройства виртуального "железа". Зачастую, примонтированный ISO-образ, которого больше нет на хранилище, вызывает высокое значение счетчика. Это же касается примонтированных USB-флешек и других устройств ВМ.
Не надо пугаться высокого значения %WAIT, так как оно включает в себя счетчик %IDLE, который отображает простой виртуальной машины. А вот значение счетчика %VMWAIT - уже более реальная метрика, так как не включает в себя %IDLE, но включает счетчик %SWPWT (виртуальная машина ждет, пока засвопированные таблицы будут прочитаны с диска; возможная причина - memory overcommitment). Таким образом, нужно обращать внимание на счетчик %VMWAIT. К тому же, счетчик %WAIT представляет собой сумму метрик различных сущностей процесса виртуальной машины:
Счетчик %RDY
Главный счетчик производительности процессора. Означает, что виртуальная машина (гостевая ОС) готова исполнять команды на процессоре (ready to run), но ожидает в очереди, пока процессоры сервера ESXi заняты другой задачей (например, другой ВМ). Является суммой значений %RDY для всех отдельных виртуальных процессоров ВМ (vCPU). Обращать внимание на него надо, когда он превышает пороговое значение 10%.
По сути, есть две причины, по которым данный счетчик может зашкаливать приведенное пороговое значение:
сильная нагрузка на физические процессоры из-за большого количества виртуальных машин и нагрузок в них (здесь просто надо уменьшать нагрузку)
большое количество vCPU у конкретной машины. Ведь виртуальные процессоры машин на VMware ESX работают так: если у виртуальной машины 4 vCPU, а на хосте всего 2 физических pCPU, то одна распараллеленная операция (средствами ОС) будет исполняться за в два раза дольший срок. Естественно, 4 и более vCPU для виртуальной машины может привести к существенным задержкам в гостевой ОС и высокому значению CPU Ready. Кроме того, в некоторых случаях нужен co-sheduling нескольких виртуальных vCPU (см. комментарии к статье), когда должны быть свободны столько же pCPU, это, соответственно, тоже вызывает задержки (с каждым vCPU ассоциирован pCPU). В этом случае необходимо смотреть значение счетчика %CSTP
Кроме того, значение счетчика %RDY может быть высоким при установленном значении CPU Limit в настройках виртуальной машины или пула ресурсов (в этом случае посмотрите счетчик %MLMTD, который при значении больше 0, скорее всего, говорит о достижении лимита). Также посмотрите вот этот документ VMware.
Счетчик %CSTP
Этот счетчик отображает процент времени, когда виртуальная машина готова исполнять команды, одна вынуждена ждать освобождения нескольких vCPU при использовании vSMP для одновременного исполнения операций. Например, когда на хосте ESXi много виртуальных машин с четырьмя vCPU, а на самом хосте всего 4 pCPU могут возникать такие ситуации с простоем виртуальных машин для ожидания освобождения процессоров. В этом случае надо либо перенести машины на другие хосты ESXi, либо уменьшить у них число vCPU.
В итоге мы получаем следующую формулу (она верна для одного из World ID одной виртуальной машины)
%WAIT + %RDY + %CSTP + %RUN = 100%
То есть, виртуальная машина либо простаивает и ждет сервер ESXi (%WAIT), либо готова исполнять команды, но процессор занят (%RDY), либо ожидает освобождения нескольких процессоров одновременно (%CSTP), либо, собственно, исполняется (%RUN).
Таги: VMware, vSphere, esxtop, ESXi, VMachines, Performance, CPU
Если речь идет о виртуальных машинах на сервере VMware ESXi, работающих с дисковым массивом, можно выделить 5 видов очередей:
GQLEN (Guest Queue) - этот вид очередей включает в себя различные очереди, существующие на уровне гостевой ОС. К нему можно отнести очереди конкретного приложения, очереди драйверов дисковых устройств в гостевой ОС и т.п.
WQLEN (World Queue/ Per VM Queue) - это очередь, существующая для экземпляра виртуальной машины (с соответствующим World ID), которая ограничивает единовременное число операций ввода-вывода (IOs), передаваемое ей.
AQLEN (Adapter Queue) - очередь, ограничивающая одновременное количество обрабатываемых на одном HBA-адаптере хоста ESXi команд ввода вывода.
DQLEN (Device Queue / Per LUN Queue) - это очередь, ограничивающая максимальное количество операций ввода-вывода от хоста ESXi к одному LUN (Datastore).
Эти очереди можно выстроить в иерархию, которая отражает, на каком уровне они вступают в действие:
Очереди GQLEN бывают разные и не относятся к стеку виртуализации VMware ESXi, поэтому мы рассматривать их не будем. Очереди SQLEN мы уже частично касались тут и тут. Если до SP дискового массива со стороны сервера ESX / ESXi используется один активный путь, то глубина очереди целевого порта массива (SQLEN) должна удовлетворять следующему соотношению:
SQLEN>= Q*L
где Q - это глубина очереди на HBA-адаптере, а L - число LUN, обслуживаемых SP системы хранения. Если у нас несколько активных путей к одному SP правую часть неравенства надо еще домножить на P - число путей.
Соответственно, в виртуальной инфраструктуре VMware vSphere у нас несколько хостов имеют доступ к одному LUN через его SP и получается следующее соотношение:
SQLEN>= ESX1 (Q*L*P) + ESX2 (Q*L*P)+ и т.д.
Теперь рассмотрим 3 оставшиеся типа очередей, которые имеют непосредственное отношение к хосту VMware ESXi:
Как мы видим из картинки - очереди на различных уровнях ограничивают число I/O, которые могут быть одновременно обработаны на различных сущностях:
Длина очереди WQLEN по умолчанию ограничена значением 32, что не позволяет виртуальной машине выполнять более 32-х I/O одновременно.
Длина очереди AQLEN - ограничена значением 1024, чтобы собирать в себя I/O от всех виртуальных машин хоста.
Длина очереди DQLEN - ограничена значением 30 или 32, что не позволяет "выедать" одному хосту ESXi с одного хранилища (LUN) более 30-ти или 32-х операций ввода-вывода
Зачем вообще нужны очереди? Очень просто - очередь это естественный способ ограничить использование общего ресурса. То есть одна виртуальная машина не заполонит своими командами ввода-вывода весь HBA-адаптер, а один хост ESXi не съест всю производительность у одного Datastore (LUN), так как ограничен всего 32-мя I/O к нему.
Мы уже писали о функционале Storage I/O Control (SIOC), который позволяет регулировать последний тип очереди, а именно DQLEN, что позволяет корректно распределить нагрузку на СХД между сервисами в виртуальных машинах в соответствии с их параметрами shares (эта функциональность есть только в издании vSphere Enterprise Plus). Механизм Storage IO Control для хостов VMware ESX включается при превышении порога latency для тома VMFS, определяемого пользователем. Однако, стоит помнить, что механизм SIOC действует лишь в пределах максимально определенного значения очереди, то есть по умолчанию не может выйти за пределы 32 IO на LUN от одного хоста.
Для большинства случаев этого достаточно, однако иногда требуется изменить обозначенные выше длины очередей, чтобы удовлетворить требования задач в ВМ, которые генерируют большую нагрузку на подсистему ввода-вывода. Делается это следующими способами:
1. Настройка длины очереди WQLEN.
Значение по умолчанию - 32. Его задание описано в статье KB 1268. В Advanced Settings хоста ESXi нужно определить следующий параметр:
Disk.SchedNumReqOutstanding (DSNRO)
Он глобально определяет, сколько операций ввода-вывода (IOs) может максимально выдать одна виртуальная машина на LUN одновременно. В то же время, он задает это максимальное значение в IOs для всех виртуальных машин на этот LUN от хоста ESXi (это глобальная для него настройка). То есть, если задано значение 32, то все машины могут одновременно выжать 32 IOs, это подтверждается в случае, где 3 машины генерируют по 32 одновременных IO к одному LUN, а реально к LUN идут все те же 32, а не 3*32.
2. Настройка длины очереди AQLEN.
Как правило, этот параметр менять не требуется, потому что дефолтного значения 1024 хватает практически для всех ситуаций. Где его менять, я не знаю, поэтому если знаете вы - можете написать об этом в комментариях.
3. Настройка длины очереди DQLEN.
Настройка этого параметра описана в KB 1267 (мы тоже про это писали) - она зависит от модели и драйвера HBA-адаптера (в KB информация актуальна на июнь 2010 года). Она взаимосвязана с настройкой Disk.SchedNumReqOutstanding и, согласно рекомендациям VMware, должна быть эквивалентна ей. Если эти значения различаются, то когда несколько ВМ используют с хоста ESXi один LUN - актуальной длиной очереди считается минимальное из этих значений.
Для отслеживания текущих значений очередей можно использовать утилиту esxtop, как описано в KB 1027901.
Для тех, кто активно использует инфраструктуру виртуальных ПК на базе решения VMware View, на сайте проекта VMware Labs появился интересный скрипт - View Controlled Recompose Script. Как знают пользователи VMware View, при необходимости обновления десктопов можно сделать операцию "Recompose", где, выбрав обновленный снапшот базовой ВМ или другую базовую ВМ, можно перестроить виртуальные машины пользователей пула ПК на работу с новым диском, не затрагивая диск с пользовательскими данными:
В отличие от стандартых средств по рекомпозиции в VMware View Manager, в скрипте View Controlled Recompose производится интеллектуальная процедура: через интерфейс WMI производится определение неиспользуемых виртуальных машин, после чего один из таких десктопов используется как реплика (Replica VM), а далее для неиспользуемых десктопов происходит рекомпозиция на базе этой реплики. Потом для активных десктопов можно сделать Force Logoff и перенаправить пользователей на уже рекомпозированные виртуальные ПК, а для этих активных десктопов, в свою очередь, доделать рекомпозицию.
По умолчанию скрипт работает в интерактивном режиме и принимает следующие входные параметры:
Pool - пул виртуальных ПК для рекомпозиции
ParentVM - полный путь к базовому образу
NewSnapshot - полный путь к снапшоту образа, из которого будет создаваться реплика и делаться рекомпозиция
Скрипт необходимо запускать на сервере VMware View Connection Server, сам же скрипт сделан на PowerCLI / PowerShell. Более подробные инструкции по его использованию приведены по этой ссылке.
Скачать скрипт VMware View Controlled Recompose Script можно по этой ссылке.
Некоторое время назад мы уже писали о возможности конвертации RDM-томов, работающих в режиме виртуальной и физической совместимости, в формат VMDK. Сегодня мы поговорим об обратном преобразовании: из формата VMDK в формат RDM (physical RDM или virtual RDM).
Для начала опробуйте все описанное ниже на тестовой виртуальной машине, а потом уже приступайте к продуктивной. Перед началом конвертации необходимо остановить ВМ, а также сделать remove виртуального диска из списка устройств виртуальной машины. Определите, какой режим совместимости диска RDM вам необходим (pRDM или vRDM), прочитав нашу статью "Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere".
Создайте новый LUN на дисковом массиве, где будет размещаться RDM-том, и сделайте Rescan на хосте ESXi, чтобы увидеть добавленный девайс в vSphere Client:
Обратите внимание на Runtime Name (в данном случае vmhba37:C0:T1:L0) и на идентификатор в скобках (naa.6000eb....итакдалее) - этот идентификатор нам и нужен. Словить его можно, выполнив следующую команду (подробнее об идентификации дисков тут):
# esxcfg-mpath -L
В результатах вывода по Runtime Name можно узнать идентификатор. Вывод будет примерно таким:
vmhba33:C0:T0:L0 state:active naa.6090a038f0cd6e5165a344460000909b vmhba33 0 0 0 NMP active san iqn.1998-01.com.vmware:bs-tse-i137-35c1bf18 00023d000001,iqn.2001-05.com.equallogic:0-8a0906-516ecdf03-9b9000004644a365-bs-lab-vc40,t,1
Соответственно, второе выделенное жирным - идентификатор, его копируем.
Далее выполняем следующую команду для конвертации диска в Virtual RDM:
Далее выберите виртуальную машину в vSphere Client и сделайте Add Disk, где в мастере укажите тип диска RDM и следуйте по шагам мастера для добавления диска. После этого проверьте, что LUN больше не показывается при выборе Add Storage для ESXi в vSphere Client. Запустите виртуальную машину и, если необходимо, в гостевой ОС в оснастке Disk Management сделайте этот диск Online.
Виктор прислал мне презентацию от того самого Ивана, который на одной из юзер-групп VMware рассматривал особенности дизайна и проектирования виртуальной инфраструктуры VMware vSphere. Часть, касающаяся виртуализации различных типов нагрузок в гостевых ОС виртуальных машин показалась мне очень интересной, поэтому я решил перевести ее и дополнить своими комментариями и ссылками. Итак, что следует учитывать при переносе и развертывании различных приложений в виртуальных машинах на платформе vSphere.
Таги: VMware, vSphere, ESXi, HA, Enterprise, VMachines